在联合学习(FL)中,许多客户或设备在不共享数据的情况下协作培训模型。模型在每个客户端进行了优化,并进一步通信到中央集线器进行聚合。尽管FL是一个吸引人的分散培训范式,但来自不同客户的数据之间的异质性可能会导致本地优化从全球目标中消失。为了估计并消除这种漂移,最近已将差异技术纳入了FL优化。但是,这些方法不准确地估计客户的漂移,最终无法正确删除它。在这项工作中,我们提出了一种自适应算法,该算法可以准确地估计客户端的漂移。与以前的工作相比,我们的方法需要更少的存储和通信带宽以及较低的计算成本。此外,我们提出的方法可以通过限制客户漂移的估计标准来诱导稳定性,从而使大规模fl更实用。实验发现表明,所提出的算法比在各种FL基准中的基准相比,收敛的速度明显更快,并且获得了更高的准确性。
translated by 谷歌翻译